首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏用户12403993的专栏

    2026-04-25: 从 RAG 到 Agentic Search + Tech Graph 的落地复盘

    日期与进度概览日期:2026年4月25日进度:把“AI辅助开发”从「单点RAG」升级为「AgenticSearch+TechGraph(静态约束)」的可持续工程范式,并对齐后端项目的_tech_graph 结论2(补短板):AgenticSearch的“按需探索”天然碎片化,必须配一个静态、可维护的架构事实源;我选择落地为/_tech_graph的Mermaid图谱体系。 1)今日关键目标把自己近期关于RAGvsAgenticSearch的体感结论整理成可复用的工程认知对齐后端项目ai-ink-brain-api-python/docs/_tech_graph/的落盘标准 漂移校验:端点/RPC/env/表名变化若未同步到_tech_graph/,必须能被脚本发现(避免文档静默过期)。 展开代码语言:TXTAI代码解释-最小漂移校验(P0_3):运行`pythontools/tech_graph_drift_check.py`,检查端点/RPC/env/表名是否在`docs/_tech_graph

    6310编辑于 2026-04-25
  • 来自专栏技术向

    Freeze graph: node is not in graph

    本文由腾讯云+社区自动同步,原文地址 http://blogtest.stackoverflow.club/no-node-in-graph/ Freeze graph: node is not in graph (even though it’s been named) Though you have named a tensor, but it won’t just accept the given

    1.1K10发布于 2019-11-20
  • 来自专栏ADAS性能优化

    TECH Big event 49

    费米实验室的Muon g-2小组今天期待已久的公告似乎巩固了自然与理论之间的巨大冲突。但是同时发布的另一项计算却使情况蒙上了阴影。

    55720编辑于 2022-05-13
  • 来自专栏云计算-私有云

    XenServer 7 Tech Preview

      最近几天,伴随XenApp & XenDesktop 7.6 FP3的发布,Citrix也带来了XenServer最新版本的Preview版本,随着Citrix的XenServer Back战略,其在XenServer上明显增加了研发力度,XenServer 6.5为我们带来了基于内存的高速缓存、64位的Dom0,很明显提高了XenServer的性能。在最新的Preview版本中,其还有很多亮眼的功能。

    1.3K20发布于 2019-02-28
  • 来自专栏GlobalPlatform

    Global Platform Tech Studio

    一、关于Global Platform Tech Studio Global Platform Tech Studio(以下及后续简称GPTS)是针对GlobalPlatform智能IC卡(以下及后续简称

    1.5K120发布于 2021-11-18
  • 来自专栏计算机视觉理论及其实现

    tf.graph_util.import_graph_def

    Imports the graph from graph_def into the current default Graph. (deprecated arguments)Aliases:tf.compat.v1.graph_util.import_graph_deftf.compat.v1.import_graph_deftf.compat.v2 .graph_util.import_graph_deftf.compat.v2.import_graph_deftf.import_graph_deftf.graph_util.import_graph_def See tf.Graph.as_graph_def for a way to create a GraphDef proto.Args:graph_def: A GraphDef proto containing ) in graph_def to Tensor objects.

    1.4K10编辑于 2022-09-03
  • 来自专栏图神经网络

    【知识】Graph Sparsification、Graph Coarsening、Graph Condensation的详细介绍和对比

    理论基础(Definitions & Theoretical Background) 图稀疏化(Graph Sparsification):图稀疏化指从原图中选取一部分边(或节点)构成一个稀疏的子图,用较少的边近似原图​ 图粗化(Graph Coarsening):图粗化通过将原图中的一些节点聚合/合并成“超节点”(super-nodes),从而构建更小的粗粒度图​。 图凝聚(Graph Condensation):图凝聚是近年提出的新兴概念,受数据集蒸馏/浓缩(dataset distillation)的启发,将大规模图**“浓缩”成一个小规模的合成图(synthetic graph)。 代表工作如近期的KID框架,将GNN训练近似表示为**图核(Graph Kernel)**上的岭回归问题,通过选取图神经切核(GNTK)来刻画模型特征映射,使问题转化为核矩阵匹配​。

    93110编辑于 2025-04-09
  • 来自专栏PM吃瓜(公众号)

    dependency graph

    Process: Break down your requirements to user stories (vertical slices through your tech stack that DELIVER

    58710编辑于 2023-03-02
  • 来自专栏时空探索之旅

    WWW 2026 | LLM×Graph论文总结【LLM4Graph & Graph4LLM】

    笔者将LLM和Graph结合的工作分为两大类,一类是LLM4Graph,即LLM做图任务。 其中细分了:文本属性图(Text-attributed Graph, TAG),知识图谱(KG),图基础模型(GFM)。另外一类是利用Graph4LLM,即利用图这种格式来增强LLM的能力。 LLM4Graph1. A Graph Foundation Model for Unified Anomaly Detection2. Disentangled Graph LLM for Molecule Graph Editing under Distribution Shifts4. MemoTime: Memory-Augmented Temporal Knowledge Graph Enhanced Large Language Model Reasoning 1 A Graph

    33510编辑于 2026-03-10
  • 来自专栏智能生信

    Graph Embedding

    主要思想 用一个低维、稠密的向量来表示一个图 (Graph) 中的各个节点 (node)。实现上,DeepWalk,LINE,node2vec都是参考word2vec的。 在图中,节点之间的连接表达了一种固定的显式关系,理论上word2vec的CBOW和Skip-gram都能迁移到Graph中,不过在Graph中比较之前流行的还是用一个节点 (相当于word2vec中的 但是由于边的有向/无向以及边的权重使得graph embedding与word embedding的算法上又有了很大的不同。 那么自然地,不同的graph embedding方法的一个主要区别是对图中顶点之间的相似度的定义(与边的方向以及权重有关)不同,这一点就不难理解。 算法 ? img node2vec node2vec是一种综合考虑DFS邻域和BFS邻域的graph embedding方法。

    1.6K00发布于 2021-02-04
  • 来自专栏时空探索之旅

    ICLR 2026 | LLM×Graph论文总结【LLM4GraphGraph4LLM】

    观察:LLM Graph统计值 最大均分 均值 最小均分 6 5.21 4 其中均分≥6的有4篇,其中。 笔者将LLM和Graph结合的工作分为两大类,一类是LLM4Graph,即LLM做图任务。 另外一类是利用Graph4LLM,即利用图结构来增强LLM的能力。 LLM4Graph & TAG1. id=CEJl0gN2gj 关键词:Graph Robustness, Graph Adversarial Attack, Text Attributed Graph, Large Language Model LLM4Graph & GFM 10 [oral] Multi-Domain Transferable Graph Gluing for Building Graph Foundation Models id=G3uNHQpP7J 关键词:Multi-domain graph pre-training, graph neural network, graph foundation model, Riemannian

    42210编辑于 2026-03-10
  • 来自专栏webpack@4.46.0源码分析

    从dependency graph 到 chunk graph

    从dependency graph 到 chunk graph 9. 从chunk到最终的文件内容到最后的文件输出? 10. webpack中涉及了哪些设计模式呢? 后面初步聚合的工作的主要依据就是上面的dependecy graph. 初步聚合: dependency graph -> chunk graph 总共三个模块,这里的入口只有一个,即webpack.config.js中配置的entry: src/simple/main.js 清理:对于脱离了chunk graph的节点(chunkGroup)被清理掉。 变量声明和初始化 // Iterative traversal of the Module graph // Recursive would be simpler to write

    1K20编辑于 2022-11-23
  • 来自专栏运维开发王义杰

    jmeter Graph Results

    "Graph Results" 是 JMeter 中的一个监听器,它提供了一种图形化的方式来显示性能测试的结果。 以下是 "Graph Results" 的一些主要特性和它所显示的信息: 样本(Number of Samples):X轴表示样本序号,即每个单独的请求或测试样本。 通过 "Graph Results",我们可以直观地看到性能测试的结果,包括每个请求的响应时间,吞吐量,偏差,和中位数。

    56420编辑于 2023-08-16
  • 来自专栏Dechin的专栏

    MindSpore Graph Learning

    技术背景 ​ MindSpore Graph Learning是一个基于MindSpore的高效易用的图学习框架。 得益于MindSpore的图算融合能力,MindSpore Graph Learning能够针对图模型特有的执行模式进行编译优化,帮助开发者缩短训练时间。 MindSpore Graph Learning 还创新提出了以点为中心编程范式,提供更原生的图神经网络表达方式,并内置覆盖了大部分应用场景的模型,使开发者能够轻松搭建图神经网络。 g.src_vertex] ...: In [11]: ret = TestSetVertexAttr()(node_feat[src_idx], node_feat[dst_idx], *graph_field.get_graph in v.innbs]) for v in g.dst_vertex] ret = GraphConvCell()(node_feat[src_idx], node_feat[dst_idx], *graph_field.get_graph

    86920编辑于 2022-11-21
  • 来自专栏星汉技术

    图(graph) 原

    图(graph) 图是非线性数据结构,是一种较线性结构和树结构更为复杂的数据结构,在图结构中数据元素之间的关系可以是任意的,图中任意两个数据元素之间都可能相关。 如果图中的边没有方向性,即每条边都是顶点的无序偶对,称之为无向图(undirected graph)。 ? 设图G=(V,E)和图G'=(V',E')。 3.ADT定义 如下是图的抽象数据类型定义: ADT Graph{ 数据对象D:D是具有相同性质的数据元素的集合。 无向图不支持此操作 }ADT Graph 2、存储结构 从图的逻辑结构定义来看,无法将图中的顶点排列成一个唯一的线性序列。 6、拓扑排序 有向无环图(directed acyclic graph)是指一个无环的有向图,简称DAG。

    2.3K20发布于 2019-03-12
  • 来自专栏给永远比拿愉快

    Leetcode: Clone Graph

    Clone an undirected graph. Each node in the graph contains a label and a list of its neighbors. OJ’s undirected graph serialization: Nodes are labeled uniquely. As an example, consider the serialized graph {0,1,2#1,2#2,2}. The graph has a total of three nodes, and therefore contains three parts as separated by #. 参考代码(使用深度优先遍历): /** * Definition for undirected graph.

    71630发布于 2019-01-22
  • 来自专栏快乐阿超

    relation-graph

    git仓库:https://github.com/seeksdream/relation-graph 文档地址:http://relation-graph.com/#/docs/start 在线体验:http ://relation-graph.com/#/demo/layout-center 甚至包含在线配置工具 十分强大

    1.2K11编辑于 2022-10-04
  • pytorch computation graph

    什么是 PyTorch 计算图(Computation Graph)在深度学习中,计算图是一个有向图,用于表示 张量操作的依赖关系。 特点:动态计算图(Dynamic Computation Graph):图在前向计算时即时构建,每次 forward 都是新的图。节点(Node):表示张量操作(例如加法、乘法、卷积)。 总结计算图(Computation Graph) 是 PyTorch 自动求导的核心机制。PyTorch 使用 动态计算图,灵活、可调试、支持任意控制流。

    28010编辑于 2025-08-14
  • 来自专栏超然的博客

    Graph Attention Networks

     Graph Attention Networks paper:https://mila.quebec/wp-content/uploads/2018/07/d1ac95b60310f43bb5a0b8024522fbe08fb2a482 分析这些学到的attentional weights有利于可解释性(可能是分析一下模型在分配不同的权重的时候是从哪些角度着手的) attention机制是对于所有edge共享的,不需要依赖graph全局的结构以及所有

    1.3K10发布于 2018-10-11
  • 来自专栏量化小白上分记

    AQR:Value Investing Is Not All About Tech

    上图是是用五个行业中性化的估值因子等权合成后,计算的value spread,因为做了行业中性化,所以反映的是行业内的(with-industry)value spread。

    47220编辑于 2023-03-19
领券